AI 快讯列表关于 TRIBE v2
| 时间 | 详情 |
|---|---|
|
2026-03-26 17:02 |
Meta发布TRIBE v2脑响应模型:准确率提升2–3倍,开放论文代码与演示助力AI与神经科学
根据TheRundownAI在X的报道,Meta AI发布TRIBE v2,可在无需重新训练的情况下对未见个体的脑部响应进行预测,并在电影与有声书任务上实现约2–3倍的性能提升;本次同时开放论文、模型、代码与在线演示。依据AI at Meta的信息,TRIBE v2能跨个体与任务泛化,旨在将脑科学洞见用于构建更强的AI,并通过计算模拟加速神经疾病的诊断与治疗研究;资源链接包括go.meta.me/210503(论文)、go.meta.me/ea1cff(模型)、go.meta.me/873d02(代码)。据AI at Meta披露,该开放生态为研究机构与创业团队带来机会,如建立脑到表征的基准管线、将神经预测先验融入多模态基础模型、以及基于模拟脑响应开发临床决策支持原型。 |
|
2026-03-26 13:04 |
Meta 发布 TRIBE v2:零样本预测个体脑反应,准确率提升2–3倍
据 Meta AI 表示,TRIBE v2 无需再训练即可对未见个体的脑反应进行可靠预测,在电影与有声书场景较以往方法提升约2–3倍,并已开放论文、模型、代码与演示(论文 go.meta.me/210503,模型 go.meta.me/ea1cff,代码 go.meta.me/873d02)。据 Meta 称,该零样本泛化能力可降低被试采集成本,促进跨个体基准评测,并为医疗影像、神经科技与基础模型研发带来将大脑表征对齐进产品流水线的机会,加速以计算模拟辅助神经疾病诊断与治疗研究。 |
|
2026-03-26 13:04 |
Meta发布TRIBE v2脑编码器:500+小时fMRI支撑视觉与听觉零样本神经预测
据Meta AI在X平台披露,Meta发布TRIBE v2三模态脑编码基础模型,利用700多人、超过500小时的fMRI数据预测人脑对几乎任何视觉或声音刺激的反应(来源:AI at Meta)。据Meta官方页面介绍,该模型基于其Algonauts 2025获奖架构,构建神经活动数字孪生,并可对新受试者、新语言与新任务实现零样本泛化(来源:go.meta.me/tribe2)。据AI at Meta报道,官方提供在线演示,预示在神经科学驱动AI、多模态对齐及个性化神经自适应交互、数字医疗与康复等领域的落地机会(来源:AI at Meta)。 |